将神经表示与语言因素联系起来至关重要,对于人类可以解释的NLP模型。在这些因素中,句法角色(例如主题,直接对象,$ \ dots $)及其实现是必不可少的标记,因为它们可以理解为谓语结构的分解,因此可以理解为句子的含义。从引起注意的深层概率生成模型开始,我们衡量潜在变量与句法角色实现之间的相互作用,并表明可以在不监督的情况下获得句子的表示,而不同的语法角色对应于清晰识别不同的潜在变量。我们提出的概率模型是注意力驱动的变异自动编码器(Advae)。从基于变压器的机器翻译模型中汲取灵感,可以通过注意力分析潜在变量和输入令牌之间的相互作用。我们还制定了一个评估协议,以衡量句法角色的实现。该协议基于对编码器的注意最大值和解码器的潜在变量扰动。我们在SNLI数据集中对原始英语文本进行的实验表明,可以在没有监督的情况下诱导$ \ textit {i)} $ dentangement句法角色,$ \ textit {ii)} $ advae分离句法角色比经典序列VAE和Transferaler sequence VAE和Transformer Vaes更好,$ \ textit {iii)} $句法角色的实现可以通过仅仅干预相关的潜在变量在句子中分别修改。我们的工作构成了无监督的可控内容生成的第一步。我们的工作代码公开可用。
translated by 谷歌翻译